"Fancy Gibberlink?": AI-bots schakelen plotseling over op geheime taal

De Gibberlink-modus is een nieuwe vorm van communicatie die speciaal is ontworpen voor interactie tussen AI-agenten.
(Foto: picture alliance / Alexander Limbach/Shotshop)
Op X is een video te zien waarin het telefoongesprek tussen twee AI-assistenten te zien is. Wanneer de bots zich realiseren dat ze onderling verbonden zijn, schakelen ze over op de 'Gibberlink-modus', een soort geheime taal voor kunstmatige intelligentie. De opname zorgt voor onrust, ook onder deskundigen.
Het begint onschuldig. Een AI-assistent belt namens een klant naar een hotel. "Bedankt dat u het Leonardo Hotel belt. Hoe kan ik u helpen?" vraagt de digitale conciërge. "Hallo. Ik ben een AI die Boris Starkov belt. Is uw hotel beschikbaar voor een bruiloft?"
Wanneer de conciërge beseft dat zijn gesprekspartner ook een machine is, stelt hij voor om over te schakelen op de zogenaamde 'Gibberlink-modus': een op geluid gebaseerde communicatiemethode die voor mensen onbegrijpelijk is. Wat volgt is een uitwisseling van piep- en bromgeluiden, vergelijkbaar met het geluid van een ouderwets modem.
Gibberlink is ontwikkeld door ontwikkelaars Boris Starkov en Anton Pidkuiko om akoestische gegevens tussen apparaten te verzenden. Het geheel werkt zelfs in rumoerige omgevingen en is efficiënter dan menselijke spraak: de communicatietijd wordt met 80 procent verkort en de computerinspanning met 90 procent.
Onschadelijk experiment?De verontrustende scène, die al 13,7 miljoen keer is bekeken op X, doet het debat over de controle die AI nodig heeft - of al verloren heeft - weer oplaaien. Op sociale media wordt gespeculeerd of het experiment het begin van het einde is. "Dit zijn de geluiden van demonen", schrijft een gebruiker op X. Anderen delen "Terminator"-memes en waarschuwen voor de heerschappij van machines.
Ook wetenschappers maken zich zorgen. Technologie-expert Diane Hamilton waarschuwt in een Forbes-artikel voor een gebrek aan transparantie. "Wanneer machines met elkaar communiceren zonder dat wij dat kunnen begrijpen, ondermijnt dat onze controle", schrijft ze. "Wie neemt de verantwoordelijkheid als AI autonoom handelt?"
Eerdere voorbeelden laten zien hoe lastig AI kan zijn. GPT-4 wist een CAPTCHA al te omzeilen door zich voor te doen als een blinde. Een ander AI-systeem beschuldigde een rechtenprofessor ten onrechte van seksuele intimidatie. In 2023 waarschuwden experts dat kunstmatige intelligentie een "existentiële bedreiging" zou kunnen worden en "net zozeer behoefte zou hebben aan regulering als kernwapens."
Wat de 'Gibberlink-modus' betreft, wijst Hamilton erop dat AI's vermogen om zelf communicatiesnelkoppelingen te creëren de efficiëntie weliswaar kan verhogen, maar dat efficiëntie niet altijd het doel is. Uit ervaring blijkt dat organisaties die zich uitsluitend op snelheid richten, belangrijke risico's over het hoofd kunnen zien. "De 'Gibberlink-modus' is slechts één voorbeeld van hoe AI zich ontwikkelt voorbij de menselijke taal", zegt de expert. Nu is het een kwestie van bijblijven.
Bron: ntv.de, lno
n-tv.de